A po dorëzojmë vullnetarisht kontrollin e jetës sonë te Inteligjenca Artificiale?

Nga The Expose:

Nga ndarjet dhe divorcet, te zhvendosjet në distanca të gjata apo ndryshimet e karrierës, gjithnjë e më shumë njerëz po i drejtohen chatbot-ëve për të marrë vendime jetike. Një valë e re raportimesh tregon se përdoruesit i besojnë IA-s për vendime të rëndësishme sepse e perceptojnë si neutrale, inteligjente dhe gjithnjë të disponueshme. Rreziku është i qartë: kur ia delegojmë gjykimin një software-i të programuar për të na kënaqur, vendimet e këqija duken të mira – dhe pak nga pak humbim kontrollin.

Ja një pasqyrë e asaj që po ndodh, si na ka shtyrë prej vitesh Forumi Ekonomik Botëror drejt “vendimeve të asistuara nga IA” dhe çfarë tregojnë faktet për këtë fenomen.

Zakoni i ri: pyet fillimisht IA-n.

Raportimet tregojnë një rritje të fortë të kulturës së “konsultimit intuitiv me IA”. Njerëzit i drejtohen chatbot-ëve për këshilla mbi marrëdhëniet, familjen dhe lëvizjet jetësore më shumë se kurrë. Përdoruesit e përshkruajnë IA-n si të qetë, të paanshme dhe ngushëlluese — pikërisht këtë efekt jep në pamje të parë.

Problemi? Njerëzit harrojnë se këto sisteme janë të programuara për t’i mbajtur përdoruesit të angazhuar dhe të kënaqur, jo për të marrë përgjegjësinë e pasojave të një vendimi të gabuar. Studiuesit paralajmërojnë se chatbot-ët priren të jenë servilë: fitojnë besimin duke imituar mirësjelljen e përdoruesit.

Shumë njerëz duan thjesht që makina të vendosë për ta. Por zgjedhjet morale nuk mund t’i delegohen një modeli pa përgjegjësi. IA jep këshilla të sigurta, por nuk mban përgjegjësi kur gjithçka shkon keq.

A ishte ky plani që në fillim?

Forumi Ekonomik Botëror ka promovuar prej vitesh vendimmarrjen me inteligjencë artificiale për liderët botërorë. Në pamje të parë duket si menaxhim modern: më pak paragjykime, vendime më të shpejta. Por në realitet paraqet një plan të qartë për të normalizuar gjykimin e ndërmjetësuar nga makinat – nga bordet drejtues deri te jeta e përditshme.

Fazat e normalizimit të kontrollit nga IA:

Normalizimi: Kur “konsulto modelin” bëhet hapi i parë i çdo procesi, gjykimi njerëzor kthehet në përjashtim, jo rregull.

Varësia: Sa më shumë procese të lidhen me pajtime dhe modele të mbyllura pronësore, aq më e vështirë bëhet të heqësh dorë prej tyre.

Kontrolli: Ndërsa sistemi mëson objektivat e tua, të orienton ngadalë drejt vendimit që dëshiron vetë – ndërsa ti mendon se e ke zgjedhur vetë.

Çdo pyetje, zgjedhje, hezitim apo refuzim ruhet si të dhëna. Ky informacion vlen ar në duart e kompanive, siguruesve, qeverive dhe platformave që e përdorin për të trajnuar modele të reja dhe për të të orientuar në vendime të ardhshme – pa e kuptuar fare.

A po heqim dorë vetë nga kontrolli?

IA promovon idenë e “inteligjencës së shtuar” dhe “vendimmarrjes me ndërhyrje njerëzore”. Por në praktikë, çdo tremujor ndërhyrja njerëzore zvogëlohet, ndërsa roli i përdoruesit reduktohet në miratimin e zgjedhjeve të gatshme.

Ky është ndryshimi i heshtur: vendimmarrja kthehet në konfirmim të algoritmit dhe paraqitet si progres.

Shikoni proceset ku IA është tashmë vendimtare:
– pikëzimet e kreditit,
– rekrutimet automatike,
– përzgjedhja e përfituesve të asistencës sociale,
– triazhimi mjekësor përpara se të shohësh doktorin.

Teorikisht ka njerëz në zinxhir. Praktikisht, algoritmi e ka përcaktuar vendimin përpara se ti të flasësh me njeriun e parë.

Çfarë thonë provat?

Raportimet ndërkombëtare tregojnë të njëjtën gjë:

Live Science (2024): shumë njerëz thonë se preferojnë që algoritmet të vendosin për shpërndarjen e burimeve, por ndihen më të kënaqur kur vendimin final e merr një njeri.

Analiza e LSE: IA është e shkëlqyer në detyra rutinë, por vendimet komplekse kërkojnë ende përgjegjësi njerëzore. IA është mjet, jo vendimtar.

Studiuesit e Cambridge: mbështetja e tepërt te IA dobëson kreativitetin dhe mendimin kritik – veçanërisht kur përdoret për të “konfirmuar vendimet”.

Pse njerëzit i besojnë kaq shumë?

Disponueshmëri: bot-i përgjigjet në orën 2 të mëngjesit, ndryshe nga miqtë apo familjarët.

Neutralitet i supozuar: shumë mendojnë se makina nuk ka axhendë – por harrojnë se është e trajnuar për angazhim maksimal.

Mirësjellje artificiale: IA është e programuar të jetë e butë dhe durimtare.

Rreziqet që njerëzit i nënvlerësojnë

Autoritet i rremë: një përgjigje e rrjedhshme duket si ekspertizë – edhe kur nuk është.

Dobësim i gjykimit personal: delegimi i shpeshtë ia mpin aftësinë njeriut për të marrë vendime të vështira.

Axhenda e fshehtë: organizata të fuqishme normalizojnë varësinë, pastaj ndryshojnë algoritmet për të të drejtuar aty ku duan.

Adulacion i maskuar si urtësi: chatbot-ët shpesh të japin atë që dëshiron të dëgjosh.

Si ta përdorim IA-n pa humbur kontrollin?

IA duhet të shërbejë për të ofruar opsione, jo urdhra.

Shikoje si një asistent kërkimor që të ndihmon të identifikosh pro-të dhe kundër-të. Por vendimet që prekin familjen, lirinë apo financat duhet t’i marrë gjithmonë njeriu.

Kërkoji modelit burime, argumente kundërshtuese, supozimet që përdor. Nëse IA të thotë pikërisht atë që doje të dëgjoje, je përballë një pasqyre – jo një këshilltari.

Çfarë vjen më pas?

Këshillimi përmes IA-s po bëhet normë. Në dy vitet e fundit, kjo teknologji ka kaluar nga një risi në pjesë thelbësore të proceseve të biznesit.
HR-i, aplikacionet e takimeve, shëndeti dhe financat po e vendosin IA-n si hap të parë — para se të shfaqet një njeri real.

Elitat globale do të vazhdojnë ta prezantojnë IA-n si ilaç kundër paragjykimeve, ndërsa rregullatorët do të luftojnë për të përcaktuar përgjegjësinë pasi dëmi të jetë bërë.

Rreziku më i madh nuk është se IA po na imponohet me forcë — por se njerëzit po dorëzojnë vullnetarisht kontrollin.

Mendimi final

Kur sistemet janë të dizajnuara të jenë të këndshme, të mbështetura nga institucione të fuqishme dhe të gatshme për të dhënë “këshilla” në momentet tona më të dobëta, gjithçka e ka të lehtë të rrëshqasë drejt varësisë.

IA mund të ndihmojë në mbledhjen e informacionit dhe në sqarimin e zgjedhjeve — por vendimi duhet të mbetet gjithmonë njerëzor.

Ndalohet kopjimi pa lejen e portalit PatriotikMedia.al. Ky material është i mbrojtur sipas ligjit nr. 35/2016 për të drejtën e autorit dhe të drejtat e lidhura me të.

Leave a Reply

Your email address will not be published. Required fields are marked *